Java HashMap 源码

前言

HashMap是Java中常用的数据结构,是集合类中的重要存在,其中包含了散列表、链表和红黑树。散列表解决冲突的方法是链地址法,即将散列值相同的元素存放在一个链表中。当冲突过多,链表过长会造成查找效率降低,因此Java8中在HashMap中引入红黑树进行优化,当某个散列值下的链表长度过长(长度大于8),会将其转变为红黑树存储,优化查询。涉及到红黑树的操作不会再这里细讲

源码解读

构造函数

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
// 默认初始化容量
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
// 最大容量
static final int MAXIMUM_CAPACITY = 1 << 30;
// 负载因子
static final float DEFAULT_LOAD_FACTOR = 0.75f;

final float loadFactor;
//容量阈值
int threshold;

public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR;
}

public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}

public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}

public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " + loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}

// 返回刚好大于cap的2的n次方的值
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
  • initialCapacity: 初始容量
  • loadFactor:负载因子
  • threshold:容量阈值,当HashMap的存储的元素达到该值时,就会触发扩容操作

capatcity在源码中没有定义变量记录是因为其大小为table数组的长度,阈值threshold的大小由capatcity和loadFactor来决定,threshold=capatcity*loadFactor

HashMap的构造函数主要是设置初始化容量和负载因子,如果采用无参数构造函数,则使用默认的初始化容量16和负载因子0.75。当采用设置了初始化容量的构造函数时,就会调用tableSizeFor方法,该方法通过位运算的方法得到一个2的n次方,该值刚好大于cap,即当用户指定一个初始化容量为2的n次方的值,实际HashMap的阈值赋值为大于该值的一个2的n次方的值,在初始化的时候,其首先按照threshold的大小开辟数组,接着经过一次赋值threshold=threshold*loadFactor(后文resize方法中可以看到)改变threshold的大小,符合上述的说法。

为什么一定要取一个2的n次方容量的数组,这是因为2的n可以方便取余,如果size为2的n次方,则求除以size的余数通过&(size)即可得到,其次&(size)取hash散列的结果分布只会受到原本对象的hash值影响,不会受到散列函数影响

基本存储单元

HashMap的散列表是一个数组table,其中的元素是Node类,该类继承了Map.Entry接口,其中包含了key,value,hashCode和next(存储链表中下一跳)。在java8之前是内置的Entry类,而在java8中Entry类变成了Node类。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;

Node(int hash, K key, V value, Node<K,V> next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}

public final K getKey() { return key; }
public final V getValue() { return value; }
public final String toString() { return key + "=" + value; }

public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);
}

public final V setValue(V newValue) {
V oldValue = value;
value = newValue;
return oldValue;
}

public final boolean equals(Object o) {
if (o == this)
return true;
if (o instanceof Map.Entry) {
Map.Entry<?,?> e = (Map.Entry<?,?>)o;
if (Objects.equals(key, e.getKey()) &&
Objects.equals(value, e.getValue()))
return true;
}
return false;
}
}

红黑树中节点TreeNode

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
TreeNode<K,V> parent; // red-black tree links
TreeNode<K,V> left;
TreeNode<K,V> right;
TreeNode<K,V> prev; // needed to unlink next upon deletion
boolean red;
TreeNode(int hash, K key, V val, Node<K,V> next) {
super(hash, key, val, next);
}

/**
* Returns root of tree containing this node.
*/
final TreeNode<K,V> root() {
for (TreeNode<K,V> r = this, p;;) {
if ((p = r.parent) == null)
return r;
r = p;
}
}
// 省略后面红黑树增删,调整等方法
...
}

static class Entry<K,V> extends HashMap.Node<K,V> {
Entry<K,V> before, after;
Entry(int hash, K key, V value, Node<K,V> next) {
super(hash, key, value, next);
}
}

可以看到TreeNode继承LinkedHashMap.Entry,而LinkedHashMap.Entry是继承HashMap.Node,所以TheeNode是HashMap.Node的子类,对于HashMap的元素普遍操作(如遍历)都可以转为对Node的操作,无需判断table中存储从是链表还是红黑树。

查找

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}

/*
* 这里将高16位和低16位进行异或运算,使产生的低16位的产生受到高16位和低16位共同
* 影响,避免当HashMap的capacity过小时,产生的散列值只受到低16位影响,同时也会增加
* hash的复杂度,当HashMap中放入hashCode分布不佳的元素,可以通过这种hash计算方法,降低
* 散列表的冲突率。
*/
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

/**
* HashMap中判断元素是相等,必须hash值和元素equals()方法都判断为相等
* 因为hash值不仅在查找中使用,判断元素相等时也作为一个判断依据
*/
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
// (n-1)& hash取的是余数即:hash%(n-1),位运算取余的效率更高
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
//如果是红黑树,则用红黑树递归方法寻找
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
//否则用链表的方式寻找
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}

(n-1)& hash是用位运算计算hash%(n-1),确定key在哈希表中的位置。其hash值的运算不是直接采用HashCode,而是通过HashCode重新计算,因为当table表长度小,其散列值的产生只有低位有关,与高位无关,若加入的元素产生的hashCode低位比较相似,高位不同,则会造成大量冲突。因此将高16位与低16位做异或运算,使hash值低位受HashCode影响,使散列值分布均匀。

遍历

HashMap的遍历经常是通过遍历keySet和entrySet方法产生的Set来实现的。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
public Set<K> keySet() {
Set<K> ks = keySet;
if (ks == null) {
ks = new KeySet();
keySet = ks;
}
return ks;
}

final class KeySet extends AbstractSet<K> {
public final int size() { return size; }
public final void clear() { HashMap.this.clear(); }
public final Iterator<K> iterator() { return new KeyIterator(); }
public final boolean contains(Object o) { return containsKey(o); }
public final boolean remove(Object key) {
return removeNode(hash(key), key, null, false, true) != null;
}
public final Spliterator<K> spliterator() {
return new KeySpliterator<>(HashMap.this, 0, -1, 0, 0);
}
public final void forEach(Consumer<? super K> action) {
Node<K,V>[] tab;
if (action == null)
throw new NullPointerException();
if (size > 0 && (tab = table) != null) {
int mc = modCount;
for (int i = 0; i < tab.length; ++i) {
for (Node<K,V> e = tab[i]; e != null; e = e.next)
action.accept(e.key);
}
if (modCount != mc)
throw new ConcurrentModificationException();
}
}
}

final class KeyIterator extends HashIterator
implements Iterator<K> {
public final K next() { return nextNode().key; }
}

abstract class HashIterator {
Node<K,V> next; // next entry to return
Node<K,V> current; // current entry
int expectedModCount; // for fast-fail
int index; // current slot

HashIterator() {
expectedModCount = modCount;
Node<K,V>[] t = table;
current = next = null;
index = 0;
// next指到第一个不为空的数组元素
if (t != null && size > 0) { // advance to first entry
do {} while (index < t.length && (next = t[index++]) == null);
}
}

public final boolean hasNext() {
return next != null;
}

final Node<K,V> nextNode() {
Node<K,V>[] t;
Node<K,V> e = next;
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
if (e == null)
throw new NoSuchElementException();
if ((next = (current = e).next) == null && (t = table) != null) {
do {} while (index < t.length && (next = t[index++]) == null);
}
return e;
}

public final void remove() {
Node<K,V> p = current;
if (p == null)
throw new IllegalStateException();
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
current = null;
K key = p.key;
removeNode(hash(key), key, null, false, false);
expectedModCount = modCount;
}
}

可以看到keySet的迭代器继承HashIterator,其中KeyIterator的next方法直接调用了HashIterator的nextNode方法,nextNode是通过遍历table找到不为null的元素,接着再调用Node的next,不断从链表中遍历元素,但是其中冲突可能会用红黑树存储,对于红黑树的遍历并没有描写。这是因为上文讲到红黑树的TreeNode继承了Node,TreeNode的next存储着红黑树遍历下一跳的元素,所以只要调用Node类的next就可以遍历链表和红黑树,下文会看到ThreeNode的next的建立。

插入

除去红黑树的操作,插入是HashMap较为复杂的方法,因为其设计到table的扩容,链表转为红黑树等问题,先来看代码。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
static final int TREEIFY_THRESHOLD = 8;

public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
//如果table为空,则初始化table,延迟到插入元素时进行初始化
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
//如果不存在冲突,直接放入将节点放入数组中
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
// 如果头结点key相等,将头结点赋值给e
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode) // 如果是红黑树,调用树的插入操作
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
// 否则为链表,遍历
for (int binCount = 0; ; ++binCount) {
// 遍历到尾部,插入到链表的最后一个元素
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
// 当链表长度大于8时,变为红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
// 存在相同的key,则将其赋值给e
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// e不为空说明是替换掉相同key下的值,返回
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
// 如果容量大于阈值,则需进行扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}

可以看到table是在插入的时候进行判断有无进行初始化并对其初始化,初始化和扩容都是调用resize方法,整个插入过程是首先检查是否初始化,无则进行初始化,接着根据插入元素的hash的散列值找到数组中的位置,如果不存在冲突则直接存入,如果是链表,则遍历链表,如果是红黑树,则遍历树,对其已存在的key,替换value,不存在则插入到链表尾部或者红黑树中。其中在插入到链表只若容量大于8,则需要将链表转为红黑树。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
static final int MIN_TREEIFY_CAPACITY = 64;

/*
* 将链表转为红黑树,只有当链表长度大于8&&table的容量大于64时才会触发树化
*/
final void treeifyBin(Node<K,V>[] tab, int hash) {
int n, index; Node<K,V> e;
if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
resize();
else if ((e = tab[index = (n - 1) & hash]) != null) {
TreeNode<K,V> hd = null, tl = null;
do {
TreeNode<K,V> p = replacementTreeNode(e, null);
if (tl == null)
hd = p;
else {
p.prev = tl;
tl.next = p;
}
tl = p;
} while ((e = e.next) != null);
if ((tab[index] = hd) != null)
hd.treeify(tab);
}
}

转为红黑树过程中,建立了next和prev的指向,即建立好的红黑树后,结点之间通过next和prev可以遍历整颗树,这也是遍历过程值中不需要考虑红黑树的原因,如何建立红黑树,这里不细讲,下次分析红黑树中再讲。

接着来看resiz方法怎么来初始化和扩展table。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
// 判断长度是否大于0,长度为0的表示为被初始化
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
// 初始化指定的初始化容量
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}

当table为空时,需要初始化table,将如果指定了初始化容量,则其threshold做初始化长度,接着将threshold赋值为threshold*loadFactor,否则直接按照默认table长度为16,负载因子为0.75,阈值为16*0.75。如果已经初始化,则要对其进行扩容,将容量扩充为原来的两倍,扩充之后需要对散列表中的元素重新分配,在重新分配在java7是直接遍历元素进行重新计算散列值,但是在java8中进行了优化,将需要分配的链表或者红黑树分成两个链表,分别放入各自在新的表位置中。可以看到在代码中loHead和loTail、hiHead和hiTail分别是两个链表的头结点和尾结点,这里称为lo链表和hi链表,旧散列表中同一个链表中的元素按照hash值和旧表容量进行与运算,判断是否为0分为两类,放入两个链表中,最后两个链表分别放入新表的位置中。

其中的原理可以通过一个例子说明,假设一个HashMap,table容量为8,在余数为2的链上有key的hash值为2、10、18、26的元素。一开始元素确定在table中的位置是通过与n-1(例子中为7)取余的方式。

扩展容量后为16,则其确定在散列表的中的位置同样与容量与运算(n-1变为15),如果重新与运算的话

仔细观察的话,其实后三位的取与结果是一样的,不同的只有第四位上计算不同,而这取决于hash在第四位是0还是1,因此其实只要得到hash值的第四位是0还是1,就可以决定放入表中的位置。如果是0的话还是旧的位置,如果是1的话,则新位置为旧的位置加上8(2的3次方)。而确定第五位的值,只需要将hash值与旧容量值(8:0000 1000)取与运算就能得到

因此只需与oldCap取与运算,判断是否为0分两个链表,0的链表维持原来的位置,1的则加上oldCap的值作为新位置

对于红黑树的分裂放入方法也差不多

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
static final int UNTREEIFY_THRESHOLD = 6;s

final void split(HashMap<K,V> map, Node<K,V>[] tab, int index, int bit) {
TreeNode<K,V> b = this;
// Relink into lo and hi lists, preserving order
TreeNode<K,V> loHead = null, loTail = null;
TreeNode<K,V> hiHead = null, hiTail = null;
int lc = 0, hc = 0;
for (TreeNode<K,V> e = b, next; e != null; e = next) {
next = (TreeNode<K,V>)e.next;
e.next = null;
if ((e.hash & bit) == 0) {
if ((e.prev = loTail) == null)
loHead = e;
else
loTail.next = e;
loTail = e;
++lc;
}
else {
if ((e.prev = hiTail) == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
++hc;
}
}

if (loHead != null) {
// 当链表长度小于等于6时,变成链表
if (lc <= UNTREEIFY_THRESHOLD)
tab[index] = loHead.untreeify(map);
else {
tab[index] = loHead;
// 当loHead为空的时候,表明所有元素全部在hiHead链表上,已经是一棵调整好的红黑树
if (hiHead != null) // (else is already treeified)
loHead.treeify(tab);
}
}
if (hiHead != null) {
if (hc <= UNTREEIFY_THRESHOLD)
tab[index + bit] = hiHead.untreeify(map);
else {
tab[index + bit] = hiHead;
if (loHead != null)
hiHead.treeify(tab);
}
}
}

删除

删除操作比较简单,相当于在查找的基础上删掉该元素。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
public V remove(Object key) {
Node<K,V> e;
return (e = removeNode(hash(key), key, null, false, true)) == null ?
null : e.value;
}

final Node<K,V> removeNode(int hash, Object key, Object value,
boolean matchValue, boolean movable) {
Node<K,V>[] tab; Node<K,V> p; int n, index;
if ((tab = table) != null && (n = tab.length) > 0 &&
(p = tab[index = (n - 1) & hash]) != null) {
Node<K,V> node = null, e; K k; V v;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
node = p;
else if ((e = p.next) != null) {
if (p instanceof TreeNode)
node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
else {
do {
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
p = e;
} while ((e = e.next) != null);
}
}
if (node != null && (!matchValue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
if (node instanceof TreeNode)
((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
else if (node == p)
tab[index] = node.next;
else
p.next = node.next;
++modCount;
--size;
afterNodeRemoval(node);
return node;
}
}
return null;
}

在jdk8和jdk7中的区别

  • jdk8中引入了红黑树,将链表长度超过8的转变为红黑树,jdk7中则只使用链表
  • jdk8中元素插入链表在链表的尾部,而jdk7中是插入到头部,jdk8将其插入到尾部并加入红黑树,解决了jdk7的HashMap在多并发下扩容时会陷入链表成环的问题
  • Jdk8在扩容重新分配时使用了新的方法,与就容量取与运算结果分为两个链表或树,而jdk7是重新计算hash取余的结果

非默认序列化

HashMap 并没有使用默认的序列化机制,table变量被transient修饰,无法序列化,而是通过实现readObject/writeObject两个方法自定义了序列化的内容,因为序列化 talbe 存在着两个问题:

  • table 多数情况下是无法被存满的,序列化未使用的部分,浪费空间

  • 同一个键值对在不同 JVM 下,所处的桶位置可能是不同的,在不同的 JVM 下反序列化 table 可能会发生错误。

在不同的jvm下会有不同的HasCode,直接序列化生产对于后续加入元素会产生错误。

参考

HashMap 源码详细分析(JDK1.8) - 个人文章 - SegmentFault 思否

HashMap为何从头插入改为尾插入 - 掘金

0%